ताजा खबर
अहमदाबाद हादसे के बाद एंडरसन-तेंदुलकर ट्रॉफी का अनावरण टला   ||    एअर इंडिया हादसे का वीडियो बनाने वाला 17 साल का आर्यन, पुलिस ने दर्ज किया बयान   ||    LIVE Weather News 14 June 2025: आज से बदल सकता है दिल्ली में मौसम का मिजाज, किन राज्यों में लू का अल...   ||    ‘खराब फ्यूल हो सकता है हादसे का कारण…’, Ahmedabad Plane Crash पर क्या बोले विशेषज्ञ   ||    LIVE आज की ताजा खबर, हिंदी न्यूज Aaj Ki Taaza Khabar, 14 जून 2025: अहमदाबाद पहुंचे पूर्व CM विजय रुप...   ||    अहमदाबाद प्लेन क्रैश पर आया एअर इंडिया के CEO का बयान, जांच को लेकर कही ये बात   ||    Ahmedabad Plane Crash LIVE Update: डीएनए टेस्ट के लिए सैंपल देने आएंगे पूर्व सीएम रूपाणी के बेटे   ||    1 दो नहीं 7 बार सोनम-राज ने रची थी साजिश, पहले 2 प्लान हो जाते सफल तो ना जाती राजा की जान   ||    LIVE Israel Iran War Updates: ईरान के समर्थन में आया चीन, इजरायल के हवाई हमलों को बताया संप्रभुता को...   ||    लॉस एंजेलिस में बिगड़े हालात, अमेरिका ने 200 मरीन जवान किए तैनात   ||   

बैन हुआ ट्विटर अकाउंट जो बना रहा था बॉलीवुड अभिनेत्रियों के नकली वीडियो, आप भी जानें

Photo Source :

Posted On:Thursday, November 9, 2023

मुंबई, 9 नवम्बर, (न्यूज़ हेल्पलाइन) एक्ट्रेस रश्मिका मंदाना का जो वीडियो वायरल हुआ था, वह दरअसल डीपफेक तकनीक का इस्तेमाल करके बनाया गया था। इस घटना से इस तकनीक से बनाए गए कई अन्य चित्र और वीडियो प्रकाश में आए जो रडार से गायब हो गए थे। इसने उस ट्विटर अकाउंट की ओर भी ध्यान आकर्षित किया जो आलिया भट्ट, कियारा आडवाणी, काजोल, दीपिका पादुकोण और अन्य बॉलीवुड अभिनेत्रियों के नकली वीडियो और चित्र बनाने के लिए जाना जाता है। उपयोगकर्ता ने तब से वह खाता हटा दिया है।

बूम लाइव की रिपोर्ट के अनुसार, एक ट्विटर अकाउंट, जिसे पहले @crazyashfan के नाम से जाना जाता था, की पहचान 'फोटो और वीडियो हेरफेर कलाकार' के रूप में की गई है। हालाँकि, इस खाते द्वारा निर्मित सामग्री कला से बहुत दूर है। यह व्यक्ति स्पष्ट सामग्री की तलाश करता है और मूल वयस्क कलाकारों के चेहरों को भारतीय अभिनेत्रियों के चेहरों से बदलने के लिए एआई तकनीक का उपयोग करता है। एक्स अकाउंट ने कुल 39 पोस्ट साझा किए हैं, जिसमें आलिया भट्ट, कियारा आडवाणी, काजोल, दीपिका पादुकोण और कई अन्य जैसे बॉलीवुड सितारों के हेरफेर किए गए एआई-जनरेटेड वीडियो शामिल हैं, जो स्पष्ट यौन गतिविधियों में संलग्न हैं।

इसके अलावा, यह खाता ट्विटर पर चार अन्य खातों का अनुसरण करता हुआ पाया गया, जो भारतीय अभिनेत्रियों से संबंधित डीपफेक सामग्री बनाने में समान प्रकृति साझा करते हैं। नए डीपफेक चलन से न केवल बॉलीवुड की प्रमुख हस्तियां प्रभावित हुई हैं, बल्कि हॉलीवुड सुपरस्टार स्कारलेट जोहानसन ने एक विज्ञापन में उनकी आवाज की क्लोनिंग करने के लिए एआई क्लोन ऐप के खिलाफ मामला दर्ज किया है। विज्ञापन में एआई-जनरेटेड तस्वीरें और जोहानसन की नकल करती आवाज दिखाई गई। जोहानसन की टीम ने कहा है कि वह ऐप के खिलाफ कानूनी कार्रवाई करेगी। माइक्रोसॉफ्ट के अध्यक्ष ब्रैड स्मिथ ने भी एआई विनियमन की आवश्यकता पर टिप्पणी की है। उन्होंने कहा कि हमें लोगों को एआई-हेरफेर वाली सामग्री से बचाने के लिए कदम उठाने की जरूरत है।

वैरायटी की एक रिपोर्ट के अनुसार, मार्वल फिल्मों की अभिनेत्री लिसा एआई: 90s इयरबुक एंड अवतार नामक एआई ऐप के लिए एक्स नामक प्लेटफॉर्म पर 22 सेकंड के एक छोटे से विज्ञापन में दिखाई दीं। विज्ञापन में, उन्होंने स्कारलेट जोहानसन की एक क्लिप का इस्तेमाल किया। उनकी फिल्म "ब्लैक विडो।" क्लिप में, स्कारलेट कहती है, "सभी को नमस्कार! यह स्कारलेट है, और मैं चाहती हूं कि आप भी मेरे साथ जुड़ें।" फिर, स्क्रीन बदल जाती है, और आप एआई ऐप द्वारा स्कारलेट की तरह दिखने के लिए बनाई गई तस्वीरें देखते हैं, साथ ही एक आवाज भी देखते हैं जो उसके जैसी लगती है लेकिन एआई द्वारा उत्पन्न की गई थी। यह एआई आवाज ऐप के बारे में बात करती है और कहती है, "यह सिर्फ अवतार बनाने के लिए नहीं है। आप एआई के साथ शब्दों के साथ चित्र और यहां तक कि वीडियो भी बना सकते हैं। मुझे लगता है कि आपको इसे आज़माना चाहिए।"
तो, मूल रूप से, स्कारलेट जोहानसन एक छोटे से विज्ञापन में दिखाई दीं, जहां उन्होंने अपने लुक और साउंड को बेहतर बनाने के लिए एआई का उपयोग किया, जैसे कि वह इस एआई ऐप का प्रचार कर रही थीं, जो सिर्फ अवतार बनाने के अलावा और भी बहुत कुछ कर सकता है।

तो वास्तव में डीपफेक क्या है और यह खतरनाक क्यों है?

यह समझना महत्वपूर्ण है कि डीपफेक तकनीक, जो नई नहीं है और कुछ वर्षों से मौजूद है, अब स्कैमर्स और साइबर अपराधियों द्वारा तेजी से शोषण किया जा रहा है। वे इसका उपयोग वीडियो और छवियों को बदलने के लिए करते हैं, अक्सर उन्हें स्पष्ट बनाते हैं। यह तकनीक चित्रों और वीडियो के हिस्सों को बदलने और फिर से बनाने के लिए शक्तिशाली ग्राफिक्स कार्ड पर निर्भर करती है। लोग इसका इस्तेमाल गलत सूचनाएं फैलाने के लिए भी करते हैं। यह जानना आवश्यक है कि छवियों और वीडियो को बदलना, चाहे फ़ोटोशॉप या डीपफेक सॉफ़्टवेयर जैसे टूल का उपयोग करना, अवैध हो सकता है। डीपफेक तकनीक अत्यंत सजीव लेकिन भ्रामक डिजिटल सामग्री तैयार करने के लिए उन्नत कृत्रिम बुद्धिमत्ता का उपयोग करती है। यह किसी के वीडियो या ऑडियो रिकॉर्डिंग में दिखने और सुनने के तरीके को बदल सकता है, जिससे यह बताना मुश्किल हो जाता है कि क्या असली है और क्या नकली।

डीपफेक से संबंधित बढ़ते अपराधों पर टिप्पणी करते हुए, एसएफएलसी के संस्थापक मिशी चौधरी ने डिकोड को बताया, “व्यक्तियों को मदद देने के लिए कुछ संसाधनों पर काम किया जा रहा है क्योंकि कानून इसके साथ नहीं जुड़ा है। हमारे पुलिस बल प्रशिक्षित नहीं हैं और न ही हमारे न्यायाधीश या अदालतें प्रशिक्षित हैं।”


अहमदाबाद और देश, दुनियाँ की ताजा ख़बरे हमारे Facebook पर पढ़ने के लिए यहां क्लिक करें,
और Telegram चैनल पर पढ़ने के लिए यहां क्लिक करें



मेरा गाँव मेरा देश

अगर आप एक जागृत नागरिक है और अपने आसपास की घटनाओं या अपने क्षेत्र की समस्याओं को हमारे साथ साझा कर अपने गाँव, शहर और देश को और बेहतर बनाना चाहते हैं तो जुड़िए हमसे अपनी रिपोर्ट के जरिए. ahmedabadvocalsteam@gmail.com

Follow us on

Copyright © 2021  |  All Rights Reserved.

Powered By Newsify Network Pvt. Ltd.